你以为摄像头是用来拍照的?那是下一代交互平台
1936 年,美国气象学家爱德华·罗伦兹提出著名的蝴蝶效应:亚马逊的蝴蝶扇动翅膀,可能会造成美国德克萨斯州的龙卷风。不仅气象,蝴蝶效应在其他行业同样十分适用。例如,某家远在英国威尔士的半导体公司,近半年来股票从不到 40 美元快速攀升至 140 美元,增速惊人。而引起这样一场股市风暴的「蝴蝶」不是别人,正是美国苹果公司的知名产品——iPhone 8 手机。
有知情人士透露,英国威尔士半导体公司 IQE 已经成为苹果公司的供应商,前者生产的复合半导体晶圆是制作激光传感器的元件之一,而激光传感器能够实现 3D 环境感知、人脸识别、虹膜识别等多种功能,而这正是传闻中苹果新品 iPhone 8 的主打功能。虽然 IQE 公司对传言不置可否,但是股价的飙升无疑证明了市场的敏感。
从触摸屏到 Nano Sim 卡,iPhone 引领了智能手机的进化方向。当 10 周年版的 iPhone 8 将 3D 传感器变成必备配件时, 3D 传感器的普及也就是时间问题了。而得益于这些微小的半导体晶圆,用户的手机将变成一个沟通现实和虚拟世界的窗口,替换下鼠标、触摸屏,创造新的人机交互方式。
如何用光做「尺子」
让 IQE 公司的股票跃升至 140 美元的功臣是公司新开发的「光子业务」(Photonics),其中被传和 iPhone 取得了联系的是一种复合式半导体晶圆,这种晶圆的生产难度极大,需要在 6 英寸的晶圆上均匀生长 10 纳米厚度的材料,而且还要生长 300 层,且生产过程中每生长一次就要设定湿度、气压等参数。而这些「宝贵」的晶圆被制造出来后,主要会用在 VCSEL 激光器(垂直腔面发射激光器)上。这种激光器在物理和光学特性上都要比传统激光器高很多,因此被用在光数据通信和传感器等方面。
而传闻中 iPhone 8 将会配备的 VCSEL 激光器,其用途是环境感知、人脸识别和虹膜识别,简言之,就是不仅能利用摄像头纪录画面,而且能通过激光器测量手机周围环境的深度信息(Depth Information)。目前主流的深度信息捕捉方法有两种,ToF(Time of Flight)以及结构光(Structured Light Coding)。前者利用激光从物体表面反射回手机的速度来测量二者之间的距离,实现深度信息获取;后者利用发出的带有结构的光源,通过光在物体上图像的畸变判断距离,获取深度信息。虽然方式不同,但两种方案都不可避免的要用到 VCSEL 激光器。
在应用方面,Google 的 Tango 项目二代方案采用的就是 ToF 技术,而结构光的代表则是被苹果收购的 PrimeSense,其生产的体感设备 Kinect 早在 2009 年就被用在了微软的 Xbox 360 游戏机上。有机构预测,此次 iPhone 8 将会采用前置 ToF,后置双目结构光的方案,建立一个完整的 3D 感应体系,而这可能是颠覆的开始。
3D 感知的使用场景
当把用于 ToF 和结构光的激光传感器放进手机中后,我们就赋予了手机感知周围 3D 环境的能力,让机器能够「看懂」周边的世界。而有了这样的能力,能够打开更多手机的使用场景:
生物识别。目前手机上应用最广泛的就是指纹识别,3D 传感器的加入,将使得虹膜识别和人脸识别方案更加可靠。此前三星的 Galaxy Note 7 已经推出虹膜识别功能,但是成功率依然是问题。而有了 3D 传感器,iPhone 8 很可能将虹膜和人脸识别推广开来,增加生物识别的可能性。
环境扫描。谷歌的 Tango 和微软的 Hololens 有一个令人印象深刻的功能,就是用摄像头扫视房间一周后,即可在系统中建立一个房间的 3D 轮廓,类似于在机器的大脑中建立了一个深度地图,让机器能够认识到这个房间有多大,都有什么家具,同时了解到自己在这个三维环境中的位置,并时时做出调整。而让机器「认知」环境十分重要,因为这是接下来虚拟现实融合的基础。
混合现实。在苹果的 WWDC 大会上展示了 ARkit 的 Demo,在摄像头界面上,可以看到实体桌面上有一个虚拟的冒着热气的咖啡杯。现在看来效果已经不错,但如果想要将虚拟物体和现实物体更真实的融合在一起,还需要 3D 传感器,后者让手机能够更加清楚的知道桌面的位置,因此能够让桌面上的虚拟杯子更加真实,而不是像 Pokemon Go!一样仅仅是 2D 贴图。
而一旦打下 3D 感知的基础,混合现实的大门也即将开启,摄像头带来的颠覆也将奔袭而至——改变人机交互方式。
下一代人机交互
在苹果建立的 ARkit Twitter 页面上,全球开发者上传了无数脑洞大开的 Demo,从虚拟格尺到虚拟博物馆不一而足。但是,具备 3D 感知能力的设备改变最大的,其实是人机交互的方式。从最早的代码、到微软的 Windows 图形界面,人们与机器的交互经历了数码和模拟的变迁。而 VR、AR 和混合现实为代表的新一代技术,则将人机交互还原成人类的自然交互——你看到一块石头,用手就可以将其捡起来,并且能扬手扔出去。
在理想状态,这样的设备可能是一台 AR/MR 眼镜,用户可以看到逼真的虚拟物体和真实世界的物体叠加在一起,用户可以同时和虚拟及真实物体进行互动,且双方也会发生交互。而目前由于技术问题,可能还达不到这个水平,但是苹果、Facebook 等巨头想出的方案,就是将混合现实急先锋的重任,放在人手一台的手机身上。具备了 3D 感知的手机,就是用户手中的一扇「混合现实视窗」,而其界面就是摄像头。
今年的谷歌开发者大会上,其团队推出的新应用 Google Lens,将整个摄像头界面变成了搜索页,用户可以打开摄像头,拍下眼前的餐馆或者电影院来预约买票,或者拍下眼前的花卉,手机会自动给出花的名字和种类。就在几个月后,我们可以看到在摄像头界面,配备了 3D 传感器的手机将会为用户进行室内导航、3D 扫描建模等等先进功能。
第一代 iPhone 推出后,人们根本不知道该拿这一大块触摸屏做什么,只能玩玩《愤怒的小鸟》和水果忍者,大概谁也没想到用手指划来划去会成为主流的交互方式。同理,3D 传感器和双摄像头的组合的普及,人们还只是拿来玩个滤镜自拍,但是后者所代表的交互方式的变革,可能要比触摸屏带来的影响更深也更广。
摄像头的进化
从最早西门子手机 30 万像素玩具般的摄像头,到现在手机上 2000 万像素的前置和后置摄像头,高质量图像传感器在移动设备上的普及不仅重创了卡片机和中低端单反相机,而且培养了用户每天上传数十亿图像数据。以 Snapchat 和 Google Lens 为代表的社交和生产力应用,将摄像头界面,变成了新一代键盘。
而随着 IQE、Lumentum、Finisar 等公司生产的 VCSEL 激光器被用在 iPhone 8 上,3D 传感器将会成为移动设备的标配,手机摄像头将不仅能够拍摄高清影像,而且能够获得环境的深度信息,让用户可以将虚拟信息与现实生活相结合。这种「虚实结合」引发的是人机交互的变革,正像触摸屏改变了用户和手机的交互,3D 传感器和摄像头的进化,带来的则是人机交互,人与环境交互的革新。
-END-
本文由顶楼 TOP VIEW 原创
如需转载请联系:wangwei@geekpark.net
撰文:靖宇